Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Как просматривать датасторы VMware с помощью PowerCLI.


Вы уверены, что знаете, что происходит на ваших датасторах? Где хранятся ваши ISO-образы? Сколько у вас «осиротевших» (orphaned) виртуальных дисков? Каков их размер, и как давно они там? И что ещё занимает совсем недешёвое пространство на вашей СХД? Функция Search-Datastore из моего PowerCLI модуля Vi-Module ответит вам на все эти и многие другие вопросы.


Таги: VMware, PowerCLI, Storage, VMDK, VMachines

Вышел Parallels Desktop for Mac 12 - новые возможности и отличия от прошлой версии.


Компания Parallels, известная одной из лидирующих платформ для виртуализации под Mac OS, выпустила серьезное обновление своего флагманского продукта - Parallels Desktop for Mac 12. Напомним, что о возможностях одиннадцатой версии мы писали вот тут ровно год назад.

Напомним, что это решение позволяет запускать виртуальные машины Windows и Linux на платформе Mac OS X, что необходимо очень и очень многим пользователям ввиду того, что, например, некоторые нужные десктопные приложения есть только под Windows.

Давайте посмотрим на новые возможности Parallels Desktop for Mac 12, которые отличают его от 11-й версии (а если вы используете VMware Fusion - самое время сравнить функциональность):

  • Покупка Windows 10 напрямую из New Virtual Machine Wizard - полезная фича, которая упростит развертывание новой гостевой ОС.
  • Оптимизации для игр - используя Parallels Desktop, можно было играть в Windows-игры и раньше, но теперь игры работают еще быстрее за счет тесного взаимодействия команд разработки Parallels и ведущих производителей игр, таких как Blizzard (на скриншоте выше показан скрин Overwatch, под который были сделаны оптимизации).
  • Parallels Toolbox for Mac - это набор утилит (раньше они стоили $10), которые позволяют делать множество вещей: скачивать видео с Youtube и Facebook, архивировать файлы и защищать их паролем, записывать звук и управлять микрофоном в один клик, а также многое другое.
  • Обновления профессиональной версии - теперь разработчики могут управлять полосой для сетевого взаимодействия, а также ограничивать потребление ресурсов каждой ВМ, если их запущено несколько на одном хосте.
  • Повышенное быстродействие - доступ к общим папкам стал работать до 25 % быстрее, приостановка ВМ ускорилась до 60 %, создание снапшотов - до 25 %, а время работы от батареи увеличилось более чем на 10 %.
  • Быстрое добавочное резервное копирование с помощью Acronis True Image - теперь всем пользователям предлагается годовая подписка на Acronis True Image с пространством для хранения резервных копий в облаке до 500 ГБ и быстрое создание добавочных копий (а она, кстати, стоит $30, если брать отдельно).
  • Безопасность - появились функции быстрой архивации файлов и их защиты паролем, как для Mac, так и для Windows.
  • Подключаемый модуль для раздела «Оптимизированное хранилище» macOS Sierra - появилась интеграция с функцией оптимизации хранилища, которая появится в готовящейся к выпуску macOS Sierra. Эта возможность позволяет просматривать и контролировать хранилище виртуальных машин Parallels Desktop прямо в хостовой операционной системе.
  • Сохранение паролей в связке ключей Mac - теперь можно сохранить все свои пароли, в том числе используемые в ОС Windows и Microsoft Edge, а также управлять ими в своей собственной связке ключей для Mac.
  • Полная интеграция с Office 365 - теперь при попытке открыть документы Word, Excel и PowerPoint в Safari они открываются в соответствующем классическом приложении Office.
  • Режим «Не беспокоить» для Mac и Windows - помогает повысить производительность работы, временно отключая все отвлекающие факторы, в том числе все уведомления приложений и операционной системы, но при этом не давая хостовой Mac OS перейти в спящий режим.
  • Значки EXE-файлов в Finder - теперь в Finder отображаются значки EXE-файлов Windows.
  • Планирование обновлений Windows - обновление Windows можно отложить на удобное время, чтобы не получать уведомления в рабочее время.
  • Поддержка дисплеев Retina - теперь присутствует полная поддержка дисплеев Retina с интеллектуальным изменением размера и независимыми разрешениями экрана для отдельных дисплеев.
  • Постоянная готовность - это возможности быстрого открытия файлов в Windows-приложениях.
  • Будильник, таймер и секундомер - набор удобных и простых в использовании инструментов для управления временем.

Скачать Parallels Desktop for Mac 12 можно по этой ссылке. Для пользователей с действующей подпиской обновление доступно бесплатно.


Таги: Parallels, Desktop, Update, Mac OS, Apple, VMachines

Важные патчи для фикса критических багов VMware ESXi 6.0.


На днях VMware выпустила обновления, которые исправляют прямо-таки фатальные баги в гипервизоре VMware ESXi 6.0. Скорее всего, вы с ними не сталкивались, но обновиться обязательно стоит - ведь если такое случится хотя бы раз, вам придется отвечать перед пользователями и начальством.

VMware ESXi 6.0.0. билд 4192238, описанный в KB 2145667 фиксит следующие критические баги за счет обновлений в самом коде ESXi, VMware Tools и драйверах:

  • ESXi может вывалиться в розовый экран смерти (PSOD), когда вы переносите виртуальную машину с хоста ESXi в режиме обслуживания (maintenance mode).
  • ESXi может вывалиться в PSOD во время асинхронных операций компонентов IO Filter (то есть, при обычной работе с хранилищами).
  • Хосты ESXi 6, использующие драйвера mpt2sas или mptsas, могут вывалиться в PSOD.
  • ESXi выдает ложную ошибку "deprecated VMFS volume" при обновлении тома VMFS3на VMFS5.
  • Функция vMotion для активного SQL-узла может оказаться недоступной при использовании балансировки Round-Robin PSP.
  • Датасторы NFS v4.1 генерируют частые события APD, даже когда уже произошло их восстановление из этого состояния.

Загрузить патч можно на VMware Patch Portal.


Таги: VMware, Update, Bug, Bugs, ESXi, vMotion, VMachines

Как найти потерянные VHD файлы в облаке Azure IaaS?


Автор: Роман Гельман

Когда вы стираете ВМ через портал Microsoft Azure, у вас нет опции также удалить относящиеся к ВМ объекты, такие как виртуальные сетевые интерфейсы и виртуальные диски.

Что такое потерянные (orphaned) виртуальные диски - это *.vhd файлы, которые находятся на Storage Accounts, потребляя дорогое пространство на СХД, но не относятся ни к одной ВМ.

Как всегда, на помощь нам придёт PowerShell. Представляю вам очередную функцию Get-AzOrphanedVhd моего Azure PowerShell модуля, которая найдёт все потерянные виртуальные диски во всех Resource Groups и на всех Storage Accounts. Эта простенькая функция вообще не имеет параметров!

Всё, что нужно для её использования - это залогиниться в ваш Azure аккаунт при помощи Login-AzureRmAccount, выбрать интересующую вас подписку (Subscription) при помощи Select-AzureRmSubscription и просто запустить Get-AzOrphanedVhd.

Все свойства, возвращаемые функцией интуитивно понятны. Хочу заострить ваше внимание только на этих двух:

  • LastWriteDays - количество дней с момента последнего изменения диска.
  • Modified - дата изменения диска в вашем локальном времени.

Двум переменным среды $WarningPreference и $ErrorActionPreference присваивается значение SilentlyContinue, чтобы избежать подобного рода предупреждений и ошибок.

Учтите, что даже если диск не относится ни к одной ВМ, это абсолютно не значит, что он не содержит важную информацию! Подумайте дважды прежде, чем удалять какой-либо диск.

Если вы всё-таки решили стереть один или несколько дисков, вы можете это сделать через портал (GUI) или при помощи командлета Remove-AzureStorageBlob.

Обязательно просмотрите справку по Remove-AzureStorageBlob, он поддерживает очень много параметров.

PS C:\> Get-Help Remove-AzureStorageBlob –Full

Также посмотрите примеры использования Get-AzOrphanedVhd.

PS C:\> Get-Help Get-AzOrphanedVhd –Examples

Для желающих почитать статью в оригинале, прилагаю ссылку на блог автора.


Таги: Azure, PowerShell, VMachines, VHD, Storage

Возможности Instant Clone в VMware Horizon 7 - насколько быстро и эффективно это работает.


Еще на VMworld 2014 компания VMware анонсировала технологию VMware Project Fargo (которая также называлась VM Fork), позволяющую очень быстро сделать работающую копию работающей виртуальной машины на платформе VMware vSphere.

Суть технологии VMFork такова, что "на лету" создается клон виртуальной машины (VMX-файл, процесс в памяти), который начинает использовать ту же память (Shared memory), что и родительская ВМ. При этом дочерняя ВМ в общую память писать не может, а для записи собственных данных используется выделенная область памяти. Для дисков аналогично - с использованием технологии Copy-on-write в дельта-диск дочерней ВМ пишутся отличия от базового диска родительской ВМ:

В процессе работы VMFork происходит кратковременное "подвешивание" родительской ВМ (quiescence) с помощью технологии "fast suspend resume" (FSR), после чего дочерняя ВМ "отцепляется" от родительской - происходит реконфигурация машины, включающая в себя назначение нового MAC-адреса, получение нового UUID и другое. При этом ВМ шарят общие ресурсы на чтение и имеют свои уникальные области на запись - это очень удешевляет стоимость ресурсов в перерасчете на одну ВМ на хосте.

После выхода новой версии платформы виртуализации настольных ПК VMware Horizon 7 технология VMFork была переименована в Instant Clone и стала доступна для использования в производственной среде. Помимо удешевления стоимости ресурсов для размещения виртуальных машин, Instant Clone имеет еще несколько преимуществ - это делает развертывание виртуальных машин более гибким и быстрым. Ниже мы рассмотрим особенности этих процессов.

В сочетании с технологией доставки приложений через подключаемые виртуальные диски VMware App Volumes 3.0 и средством управления окружениями User Environment Manager, эти возможности позволяют пользователям получить мгновенный доступ к своим данным, при этом рабочая машина пользователя не "загрязняется" ненужными устанавливаемыми программами и распухающими ветками реестра. Это все позволяет собрать десктоп пользователя на лету из полностью кастомизируемых и доставляемых по требованию "кирпичиков".

Десктоп пользователя =
[мгновенный клон родительской ВМ] +
[корпоративные приложения на подключаемых дисках App Volumes] +
[кастомизация Environment Manager] +
[данные пользователя] +
[установленные пользователем приложения]

Давайте посмотрим, насколько Instant Clone упрощает цикл развертывания новых настольных ПК. Вот так выглядит развертывание связанных клонов (Linked Clones) в инфраструктуре VMware View Composer:

  • Клонирование виртуального ПК из реплики мастер-образа
  • Реконфигурация нового ПК
  • Включение ВМ
  • Кастомизация машины
  • Создание контрольной точки нового ПК (checkpoint)
  • Включение ВМ
  • Логин пользователя

С использованием Instant Clone процесс заметно упрощается:

  • Создание копии ВМ в памяти средствами VMFork
  • Кастомизация машины
  • Включение ВМ
  • Логин пользователя

Для администратора виртуальных ПК в пулах Instant Clone удобны тем, что таким десктопам не требуются операции Refresh, Recompose и Rebalance. Ведь после выхода пользователя из ПК его десктоп уничтожается, а перестраивать связанные клоны не требуется. Изменения базового образа проходят "на лету" в течение рабочего дня, а при следующем логине пользователь получает уже обновленные приложения. Также есть возможность принудительного перелогина пользователя для обновления компонентов виртуального ПК (например, фикс в подсистеме безопасности).

Также отпадает необходимость в использовании технологии Content-Based Read Cache (CBRC), ведь виртуальные ПК Instant Clone живут недолго, постоянно выгружаются из памяти при выходе пользователя, и нет нужды прогревать кэш их блоками в памяти, а вот для мастер-ВМ и реплик CBRC вполне себе используется.

Кроме того, теперь не нужны операции wipe и shrink для виртуальных дисков SEsparse, которые позволяют возвращать место на растущем диске для связанных клонов. Виртуальные машины Instant Clone живут недолго, а при их уничтожении дисковое пространство их дельта-дисков возвращается в общий пул пространства хранения.

Ну и в отличие от View Composer, технология Instant Clone не требует наличия и поддержки базы данных для операций с виртуальными ПК, что существенно упрощает обслуживание инфраструктуры виртуальных десктопов.

Многие думают, что пулы Instant Clone трудно создавать, настраивать и поддерживать. Это не так, все делается в несколько простых шагов:

  • Создаем родительскую виртуальную машину, устанавливаем в ней Windows, оптимизируем ее и активируем лицензионным ключом.
  • Устанавливаем VMware Tools.
  • Устанавливаем Horizon Agent и отмечаем фичу Instant Clone для установки.
  • При добавлении нового пула виртуальных ПК типа Automated/Floating отмечаем Instant Linked Clones.

Помимо того, что с Instant Clone процесс проходит меньшее количество шагов, уменьшается и нагрузка на различные компоненты виртуальной инфраструктуры - меньше операций ввода-вывода, быстрее происходит процесс создания мгновенной копии (скорее освобождаются системные ресурсы), меньше объем взаимодействий с сервером vCenter, а дисковое пространство высвобождается сразу после окончания использования виртуального ПК.

Давайте посмотрим, насколько быстрее это работает на тестах. Развертывание связанных клонов View Composer типовой конфигурации (2 vCPU, 2 GB memory, Windows 7, Office 2010, Adobe 11, 7-Zip, Java) на 15 хост-серверах с использованием HDD-дисков занимает где-то 150-200 минут. А то же самое развертывание 1000 виртуальных машин на базе Instant Clone занимает лишь 25-30 минут. То есть скорость получения новой инфраструктуры десктопов по запросу возрастает в 5-7 раз.

При этом не особо-то и растет нагрузка на сервер VMware vCenter. Поначалу, конечно же, возникает пиковая нагрузка на vCenter при операциях в оперативной памяти с мгновенными копиями ВМ, но в итоге средняя загрузка практически такая же, как и при использовании View Composer - ведь не нужно проходить цикл включения (2 раза) и реконфигурации виртуальной машины (3-4 раза), как это происходит у Composer.

В итоге, можно сказать, что в определенных случаях Instant Clone - это лучшее решение с точки зрения быстродействия и производительности. Когда виртуальную машину нужно получить как можно быстрее, а пользователю после окончания работы она не нужна в том виде, в котором он ее оставил - мгновенные копии позволят ускорить процесс в несколько раз. Примером такого варианта использования может служить колл-центр, где оператор использует виртуальный десктоп для решения определенной задачи технической поддержки, после чего от разлогинивается, уничтожая ненужную в данный момент сущность - свой виртуальный десктоп.


Таги: VMware, Horizon, Instant Clones, VMFork, VMachines, Performance

Изменение параметров группировки виртуальных машин в VMware vSphere Web Client.


Если у вас много виртуальных машин в Inventory сервера VMware vCenter, то при превышении порога в 100 виртуальных машин они будут автоматически сгруппированы таким образом, что их список вы будете видеть только в группах:

Это поведение удобно далеко не всем администраторам VMware vSphere, но это легко можно изменить в настройках веб-клиента. Для этого откройте файл на сервере vCenter для Windows:

C:\Program Data\VMware\vCenterServer\cfg\vsphere-client\webclient.properties

Или вот такой на vCenter Server Appliance (vCSA):

/etc/vmware/vsphere-client/webclient.properties

И там поменяйте вот этот параметр (например, установив значение 500):

aggregationThreshold.VirtualMachine

Откройте vSphere Web Client - и увидите, что машины теперь не группируются:


Таги: VMware, vSphere, Web Client, VMachines

Как быстро получить файлы конфигурации и логи с VMware ESXi, не заходя в консоль.


Многие администраторы VMware vSphere часто сталкиваются с необходимостью получить какие-то файлы конфигурации с VMware ESXi или заглянуть в логи хост-сервера. Для этих целей они используют SSH-клиенты, такие как WinSCP / Veeam FastSCP, либо копируют файлы еще каким-нибудь экзотическим образом.

Но есть простой способ - забрать файл конфигурации esx.conf либо другой конфиг-файл или лог через веб-браузер. Просто зайдите по ссылке:

https://<имя хоста ESXi>/host

После ввода логина и пароля вы получите список файлов, которые можно скачать по прямым ссылкам (всего 46 конфигурационных файлов):

Таким вот образом можно получить любой файл для целей траблшутинга - например, мы тут видим не только основной файл конфигурации хоста esx.conf, но и логи VMware HA (fdm.log) или агента vCenter (vpxa.log), а также основной лог службы хост-сервера ESXi (hostd.log).

Ну а известный многим William Lam написал на основе vSphere API (он как раз и используется для доступа к объектам хоста) сценарий PowerCLI, который позволяет быстро вывести основную конфигурацию ESXi, содержащуюся в esx.conf.


Таги: VMware, ESXi, API, VMachines, Logs, Troubleshooting

Azure Automation: как включить/выключить ВМ в облаке Microsoft Azure по расписанию.


Одним из методов эффективного владения облачной инфраструктурой является выключение виртуальных ресурсов (ВМ) в нерабочие часы. В облаке Microsoft Azure имеется возможность выключать (stop and deallocate) ВМ с помощью Automation Accounts. При помощи моего PowerShell скрипта Apply-AzVmPowerStatePolicyWf.ps1 вы сможете создать свой собственный Runbook и спланировать включение/выключение ваших Azure ВМ.
Таги: Microsoft, Azure, VMachines, Обучение, Cloud, Cloud Computing, PowerShell, Automation

Как узнать версию любого объекта VMware? Используйте Get-Version!


Очень часто мне, как и любому администратору виртуальной инфраструктуры VMware, требуется знать версию того или иного объекта. Это может быть версия VMTools/vHardware виртуальной машины или версия vSphere хоста ESXi или версия VMFS-датастора (продолжите список сами). И каждый раз вы начинаете судорожно вспоминать, как это делается, где и какой скрипт искать или пускаетесь в поиски по форумам или обращаетесь к доктору Google).


Таги: VMware, vSphere, PowerCLI, VMachines, ESXi, Blogs

Вывод числа виртуальных машин и их имен в физической консоли VMware ESXi.


Вильям Лам написал интересный пост об изменении приветственного экрана физической консоли VMware ESXi. Некоторые из вас знают, что внешний вид DCUI-консоли ESXi можно менять в файле /etc/vmware/welcome.

Но руками залезать в него не нужно, вместо этого можно использовать расширенную настройку ESXi Advanced Setting, которая называется Annotations.WelcomeMessage. Ее можно изменить с помощью сценария PowerCLI / PowerShell.

Часто администраторам нужно узнать, на каком из хостов находится виртуальная машина, например, это сервер vCenter, который выключен по тем или иным причинам. В этом случае поможет вывод имен виртуальных машин прямо в физическую DCUI консоль сервера ESXi, к которой можно получить доступ напрямую с сервера или по SSH.

Ниже приведен PowerCLI-скрипта для описанного сценария, в котором все просто и понятно относительно того, как устанавливается рассмотренная выше расширенная настройка для вывода количества и списка виртуальных машин:

Connect-VIServer -Server 192.168.1.50 -User root -Password vmware123

$vms = Get-View -ViewType VirtualMachine -Property Name

$DCUIString = "{color:yellow}
{esxproduct} {esxversion}

Hostname: {hostname}
IP: {ip}

Virtual Machines: " + $vms.Count + "
{/color}
{color:white}
"

foreach ($vm in $vms) {
$DCUIString += "`t`t" + $vm.Name + "`n"
}

Set-VMHostAdvancedConfiguration -Name Annotations.WelcomeMessage -Value $DCUIString

Disconnect-VIServer -Confirm:$false

Конечно же, если у вас много виртуальных машин на хосте, то они просто не влезут на приветственный экран ESXi, но 15 виртуальных машин у Вильяма влезли без проблем:

Кстати, если вы хотите вывести только включенные виртуальные машины, то вы можете просто добавить фильтр:

-Filter @{"Runtime.PowerState" = "PoweredOn"} 

в конце строчки, где используется командлет Get-View.


Таги: VMware, ESXi, PowerCLI, VMachines, Blogs

Плагин sshAutoConnect для vCenter - быстрое соединение с хостами по SSH.


Если вы часто заходите на хост-серверы VMware ESXi по SSH, то вам может оказаться полезным плагин sshAutoConnect для vCenter, который позволяет добавить соответствующий пункт в контекстное меню vSphere Client для хостов ESXi.

Плагин sshAutoConnect состоит из двух файлов - xml, который определяет конфигурацию плагина, и, собственно, dll-библиотека с плагином. Инсталляция плагина проста - нужно положить эти два файла в отдельную папку в папке плагинов vCenter по адресу:

C:\Program Files (x86)\VMware\Infrastructure\Virtual Infrastructure Client\Plugins

Далее просто идете в vSphere Client в раздел плагинов Plug-ins > Manage Plug-ins… и активируете плагин:

Для конфигурации используется файл sshAutoConnect.xml, выглядит он примерно так:

<?xml version="1.0" encoding="utf-8" ?>
  
<credentials>
<default>
<login>root</login>
<password>d3d3LnZtZHVkZS5mcg==</password>
</default>
<custom_servers>
<server name="server-esx-01.vmdude.fr"> <login>root</login>
<password>d3d3Lmh5cGVydmlzb3IuZnI=</password> </server>
<server name="server-esx-02.vmdude.fr"> <login>root</login>
<password>d3d3LnZtd2FyZS5mcg==</password> </server>
</custom_servers>
</credentials>

sshAutoConnect соединяется с хостами ESXi по логину и паролю, указанному в секции <default>, но если в разделе <custom_servers> есть логин и проль для конкретного хоста - будут использованы эти данные. Пароли тут записаны в виде base64, о том, как их получать написано вот тут.

Ну и загрузить плагин sshAutoConnect вместе с исходным кодом можно с репозитория на GitHub по этой ссылке.


Таги: VMware, ESXi, SSH, VMachines, vSphere, Blogs

Как теперь работает технология дедупликации страниц памяти Transparent Page Sharing в vSphere 6.0.


Какое-то время назад мы писали о том, что технология дедупликации страниц памяти Transparent Page Sharing (TPS) с приходом больших страниц памяти становится ненужной (а в последних версиях vSphere и вовсе она отключена). Но это не значит, что сейчас TPS нигде не используется совсем - ведь большие страницы, при условии недостатка ресурсов памяти на хост-сервере, гипервизор ESXi может разламывать на маленькие, после чего дедуплицировать их.

Между тем, в последних релизах VMware vSphere, включая ESXi 6.0, появилась более гранулярная модель управления механизмом TPS, который можно задействовать для отдельных групп виртуальных машин (например, серверы обрабатывающие одни и те же данные, где вероятность дубликатов страниц высока). Называется этот механизм Salting (хэширование с солью).

Как известно, TPS производит хэширование страниц памяти виртуальных машин, после чего происходит сравнение хэшей на предмет их совпадения. Если они совпадают, то начинается побитовое сравнение этих страниц памяти, чтобы исключить ложное срабатывание дедупликации страниц (потому что, как известно, у двух разных исходных строчек теоретически может быть один хэш).

Если страницы полностью совпадают - вносятся изменения в таблицу страниц памяти, где для второй копии ставится просто ссылка на первую, а физически вторая копия страницы уничтожается.

При любой попытке записи в такую страницу со стороны виртуальной машины - мгновенно создается ее физическая копия с помощью механизма copy-on-write (CoW), и она уже перестает быть шаренной (каждая машина начинает использовать свою копию).

Так вот в последних версиях VMware vSphere механизм TPS работает не так просто. По умолчанию используется Salting, а в качестве этой самой соли используется UDID виртуальной машины, который всегда уникален для данного сервера vCenter. То есть перед снятием хэша со страницы памяти происходит добавление соли к исходным данным, а поскольку соль одинакова только для конкретной ВМ, то и дедупликация страниц со стороны TPS происходит только на уровне отдельной виртуальной машины (Intra-VM TPS).

Механизм Salting используется по умолчанию, начиная со следующих версий гипервизоров:

  • ESXi 5.0 Patch ESXi500-201502001
  • ESXi 5.1 Update 3
  • ESXi 5.5, Patch ESXi550-201501001
  • ESXi 6.0

Управлять этим механизмом можно из расширенных настроек хоста VMware ESXi (Advanced Settings, раздел Mem). По умолчанию используется расширенная настройка Mem.ShareForceSalting в значении 2. Это означает, что salting включен и работает Intra-VM TPS.

Если же мы поставим эту настройку в значение 0, как на рисунке выше, то соль перестанет добавляться к хэшу при работе алгоритма TPS, а значит он будет работать для всех виртуальных машин на хосте (Inter-VM TPS).

Ну и, как становится понятным, TPS можно включить для отдельной группы виртуальных машин на хосте ESXi, для чего нужно использовать одинаковую соль для этих виртуальных машин. Для этого в расширенных настройках виртуальной машины нужно добавить параметр sched.mem.pshare.salt с одинаковым значением у всех нужных вам ВМ (это также можно сделать и в vmx-файле).

В этом случае значением настройки Mem.ShareForceSalting должно быть 1 или 2 (разницы тут особой нет, кроме того, что если у вас используется значение 1, то при отсутствии соли включится Inter-VM sharing).

Ну и в таблице ниже приведем различия в работе алгоритма TPS для различных значений Mem.ShareForceSalting и в зависимости от заполненности sched.mem.pshare.salt для виртуальных машин.

Значение Mem. ShareForceSalting (настройка уровня хоста)

Значение sched.mem.pshare.salt (настройка уровня ВМ)

vc.uuid (свойство ВМ)

Значение соли в настройках ВМ

TPS между виртуальными машинами (Inter-VM)

TPS внутри каждой из ВМ (Intra-VM)

0

Игнорируется

Игнорируется

0

Да, между всеми машинами на хосте

Да

1

Установлено

Игнорируется

Используется sched.mem.pshare.salt

Только между ВМ с одинаковой солью

Да

1

Не установлено

Игнорируется

0

Да, между всеми машинами на хосте

Да

2

Установлено

Игнорируется

sched.mem.pshare.salt

Только между ВМ с одинаковой солью

Да


(по умолчанию)

Не установлено (по умолчанию)

Используется

Используется vc.uuid

No inter-VM TPS

Да

2

Не установлено

Отсутствует по какой-либо причине

Используется случайный номер для каждой ВМ

No inter-VM TPS

Да

Для более детальной информации вы можете обратиться к статье KB 2097593.


Таги: VMware, vSphere, Memory, Обучение, TPS, Performance, ESXi, VMachines

Сообщение No host data available на вкладке Hardware Status в VMware vCenter Server 6.0.


Интересная штука - при свежей установке или обновлении на VMware vCenter Server 6.0, если вы обычным пользователем без глобальных административных привилегий зайдете на вкладку Monitor -> Hardware Status -> Sensors для просмотра данных аппаратных сенсоров одного из хостов, вы увидите сообщение:

No host data available

Оказывается, это известная проблема, и описана она в KB 2112847. На данный момент для нее нет решения, кроме как добавить данному пользователю Global Permissions через Web Client.

Для этого нужно сделать следующее:

1. Зайти в Web Client под аккаунтом Administrator@vsphere.local или другим, у которого есть административные привилегии по управлению SSO.

2. Перейти на вкладку Administration > Global Permissions > Manage.

3. Нажать иконку + и добавить пользователю Global Permissions, выбрав его из соответствующего домена/группы.

Помните, что Global Permissions дают неограниченный доступ к просмотру и управлению объектами датацентра.


Таги: VMware, vCenter, Troubleshooting, VMachines, Monitoring

Поведение обычных и растянутых кластеров VMware Virtual SAN при невозможности выполнить политику хранилищ.


Есть пара интересных постов, на базе которых мы попробуем вкратце описать поведение кластера VMware Virtual SAN в случае, если при развертывании виртуальной машины кластер не способен обеспечить требуемые политики хранилищ (Storage Policies).

1. Обычный кластер Virtual SAN.

Если при развертывании новой ВМ в кластере VSAN невозможно обеспечить требуемые политики хранилищ (например, не хватает места для создания зеркалируемых объектов реплик), а именно:

  • NumberOfFailuresToTolerate (FTT)
  • NumberOfDiskStripesPerObject (SW)
  • FlashReadCacheReservation (FRCR)

то виртуальная машина не сможет быть развернута в кластере. Но есть такая настройка Force Provisioning для VM Storage Policy, которая позволяет игнорировать указанные 3 параметра при развертывании новой ВМ в кластере.

Однако надо понимать, что при использовании Force Provisioning происходит не понижение требований кластера к хранилищу виртуальной машины (например, вместо FTT=2 можно было бы проверить FTT=1), а использование следующих параметров:

  • NumberOfFailuresToTolerate = 0
  • NumberOfDiskStripesPerObject = 1
  • FlashReadCacheReservation = 0

То есть нужно просто аллоцировать место под виртуальную машину, совершенно без соблюдения требований к дублированию данных и резервированию кэша.

Но кластер Virtual SAN имеет еще одну специфическую черту - если вы использовали Force Provisioning при недостатке дисковых ресурсов, то когда они освободятся, для хранилища машины будут сделаны реплики дисковых объектов и прочие операции, чтобы она все-таки соответствовала требуемым политикам хранилищ. Администраторам надо иметь эту особенность в виду.

И еще один момент - так как в случае Force Provisioning может храниться только одна копия дисковых объектов, то, например, если при переводе хоста в режим Maintenance Mode случится какой-нибудь сбой с его хранилищем - реально можно потерять эту машину целиком. Делайте бэкап и, по-возможности, не используйте Force Provisioning - старайтесь соблюдать политики хранилищ хотя бы на уровне FTT=1.

2. Растянутый кластер (Stretched Cluster).

В случае растянутого кластера появляется еще один компонент - Witness Appliance, следящий за ситуацией Split Brain, которая может появиться между площадками. Если вырубить этот виртуальный модуль и попытаться включить виртуальную машину или создать новую ВМ, то кластер Virtual SAN (несмотря на то, что он Failed и политика хранилищ не соблюдена) позволит это сделать, правда будет ругаться, что машина не соответствует текущим политикам хранилищ:

В остальном растянутый кластер ведет себя по отношению к Force Provisioning так же, как и обычный.


Таги: VMware, Virtual SAN, Storage, Blogs, vSphere, VMachines, Stretched, VSAN

Улучшения Maintenance Mode в VMware vSphere 6.0 Update 2.


Вчера мы писали о новых возможностях, появившихся в обновленной версии платформы виртуализации VMware vSphere 6.0 Update 2, однако не упомянули интересную деталь, которая важна для пользователей в крупных инфраструктурах.

Когда хост VMware ESXi входит в режим обслуживания (Maintenance Mode), происходит следующее: все виртуальные машины на хосте перемещаются ("эвакуируются") на другие хост-серверы ESXi для того, чтобы по окончании процесса временно вывести хост из состава виртуальной инфраструктуры для манипуляций с ним, без остановки сервисов в виртуальных машинах.

Но суть улучшения Update 2 состоит в следующем. До этого релиза сначала происходила миграция запущенных виртуальных машин, которая занимала несколько минут и более, в зависимости от нагрузки на них. Затем уже происходила миграция выключенных машин и шаблонов ВМ (VM Templates), перенести которые занимает несколько секунд (просто перерегистрировать их на других хостах).

Однако при вхождении хоста в Maintenance Mode операции с его объектами (в том числе шаблонами) недоступны, а значит сервисы, задействовавшие клонирование ВМ из шаблона (например, VMware View или vCloud Director), также не могут исполнять свои функции, и пользователям придется ожидать окончания процесса.

Ну а в Update 2 просто поменяли местами порядок переноса - сначала мигрируют выключенные ВМ и шаблоны, что позволяет использовать их уже через несколько секунд, а только потом переезжают включенные виртуальные машины. Это иллюстрируется простой и понятной картинкой:


Таги: VMware, vSphere, Troubleshooting, Clones, ESXi, VMachines

Возможность Sparse Swap в VMware Virtual SAN 6.2 - как сэкономить кучу байтов


Среди возможностей решения для создания отказоустойчивых хранилищ VMware Virtual SAN 6.2 мы забыли упомянуть о нововведении в части обработки файлов подкачки - Sparse Swap.

Как вы знаете при создании виртуальной машины в обычной инфраструктуре под нее резервируется файл *.vswp, который равен по размеру объему сконфигурированной оперативной памяти виртуальной машины (либо объему незарезервированной памяти, то есть разнице между сконфигурированной и зарезервированной памятью, если она указана в настройке reservation). Это нужно на случай, когда машине не хватает свободной физической памяти (в ситуации, если уже не спасают техники memory overcommit), и она начинает сбрасывать страницы памяти в своп-файл на диске.

То есть, если вы создали ВМ с оперативной памятью 4 ГБ, то столько же займет и файл подкачки для этой ВМ. А теперь посмотрим на инфраструктуру Virtual SAN: если у вас задан параметр FTT=1, то каждый дисковый объект (в том числе и файл *.vswp) будет задублирован (если у вас mirror-конфигурация).

Теперь посчитаем, сколько места съест своп 100 виртуальных машин, у каждой из которых 4 ГБ оперативной памяти и которые размещены в кластере VMware Virtual SAN с FTT=1 в зеркальной конфигурации:

100 ВМ * 4 ГБ * 2 (FTT равен 1) = 800 ГБ

Да, именно так - почти терабайт только под своп. Кому-то это покажется расточительством, поэтому в Virtual SAN сделали такую штуку, как Sparse Swap. Эта функция позволяет создавать файлы подкачки vswp как тонкие, то есть растущие по мере наполнения данными, диски.

Для того, чтобы включить опцию Sparse Swap, нужно выполнить следующую команду на хосте VMware ESXi:

esxcfg-advcfg -s 1 /VSAN/SwapThickProvisionDisabled

Ну а вот тут вы можете найти PowerCLI-скрипт для автоматизации применения этой настройки и отката назад.


Таги: VMware, vSphere, Virtual SAN, VSAN, Storage, VMachines

Какие бывают VMware Tools в VMware vSphere.


Не так давно мы писали о составе пакета VMware Tools, который привносит различные улучшения и драйверы в гостевую ОС на платформе VMware vSphere, а сегодня поговорим о том, какие вообще бывают VMware Tools.

Привычная большинству из вас установка тулзов для таких гостевых ОС Windows, Linux, Solaris, FreeBSD, Mac OS X и прочих, доступна прямо из GUI vSphere Client / vSphere Web Client:

Эти VMware Tools поставляются в составе дистрибутивов VMware ESXi в виде ISO-образов, а также приходят с обновлениями в виде VIB-пакетов под названием "tools-light".

Понятное дело, что поддерживать VMware Tools в актуальном состоянии таким образом сложно, поэтому с десятой версии эти исошки доступны в рамках пакетов zip и tar, которые можно скачать по этому адресу.

В самом ближайшем будущем VMware исключит из состава поставки VMware ESXi пакеты VMware Tools для большинства ОС, оставив их только для основных версий Windows и Linux. Все остальное потребуется загружать отдельно.

Традиционный подход к обновлению VMware Tools на множестве хостов VMware ESXi - это использовать общий репозиторий для VMware Update Manager, который накатывает обновления на серверы. Более современный подход - это использовать механизм Auto Deploy для развертывания stateless-хостов, которые забирают актуальные версии VMware Tools прямо из онлайн-репозитория VMware.

Для Windows и Linux существует масса способов обновления VMware Tools:

  • Автоматическое обновление при загрузке виртуальной машины
  • Ручное через vSphere Client GUI
  • Через VMware Update Manager - немедленное, запланированное или при загрузке
  • Инициирование процесса обновления из гостевой ОС пользователем
  • Массовое обновление через сценарии PowerCLI

Для Linux существует 2 вида VMware Tools:

1. Operating System Specific Packages (OSP).

Это пакеты, которые размещены на сайте VMware (их можно скачать/обновить без аутентификации), содержащие в себе те же самые компоненты, которые находятся в ISO-образах, идущих с дистрибутивами VMware ESXi. Этот метод поставки VMware Tools для Linux уже несколько устарел и используется для старых гостевых ОС.

Первичная установка тулзов в этом случае инициируется из ОС, GUI или внешнего сценария, а дальнейшие обновления идут через менеджер пакетов, такой как Yum или Apt.

2. Open VM Tools (OVT).

Это пакеты VMware Tools с открытым исходным кодом, которые встраиваются в большинство современных Linux-дистрибутивов. Соответственно, при установке такой гостевой ОС в виртуальной машине, пакет VMware Tools будет там уже установлен.

Любой поставщик Linux-дистрибутива может взять Open VM Tools и включить любые его компоненты по своему усмотрению. Кроме того, VMware сотрудничает в основными поставщиками Linux-дистрибутивов, для которых действуют политики поддержки, озвученные в том числе в KB 2073803.

Исходный код OVT доступен для всех желающих в репозитории на GitHub, но официально поддерживаются только те OVT, которые идут вместе с дистрибутивами Linux. Если вы скомпилировали их самостоятельно - учтите, поддержки от VMware не будет.

В состав OVT часто не включаются такие функции, как dynamic desktop resizing или copy/paste с консолью ВМ, так как серверные ВМ часто бывают без иксов. Чтобы получить эти возможности нужно установить вспомогательный пакет open-vm-tools-desktop.

OVT версии 9.4 и более ранних требовали установки компонента deployPkg из репозитория OSP. Начиная с версии 9.10, такая необходимость отсутствует и OVT полностью автономны.

Несмотря на то, что есть 2 варианта VMware Tools для Linux, выбирать между ними не надо, так как для разных версий гостевых ОС используется разный тип этого пакета. Например, RHEL 6 использует оригинальные OSP-пакеты, а вот в RHEL 7 уже интегрированы Open VM Tools.


Таги: VMware, Tools, vSphere, Linux, ESXi, VMachines

Оценка производительности и времени процесса консолидации снапшотов в VMware vSphere.


Мы часто пишем о том, что снапшоты в VMware vSphere - это плохо (за исключением случаев, когда они используются для горячего резервного копирования виртуальных машин и временного сохранения конфигурации ВМ перед обновлением).

Однако их использование в крупных инфраструктурах неизбежно. Рано или поздно возникает необходимость удаления/консолидации снапшотов виртуальной машины (кнопка Delete All в Snapshot Manager), а процесс этот достаточно длительный и требовательный к производительности хранилищ, поэтому неплохо бы заранее знать, сколько он займет.

Напомним, что инициирование удаления снапшотов в vSphere Client через функцию Delete All приводит к их удалению из GUI сразу же, но на хранилище процесс идет долгое время. Но если в процесс удаления возникнет ошибка, то файлы снапшотов могут остаться на хранилище. Тогда нужно воспользоваться функцией консолидации снапшотов (пункт контекстного меню Consolidate):

О процессе консолидации снапшотов мы также писали вот тут. Удаление снапшотов (как по кнопке Delete All, так и через функцию Consolidate) называется консолидацией.

Сначала посмотрим, какие факторы влияют на время процесса консолидации снапшотов виртуальной машины:

  • Размер дельта-дисков - самый важный параметр, это очевидно. Чем больше данных в дельта-диске, тем дольше их нужно применять к основному (базовому) диску.
  • Количество снапшотов (число дельта-файлов) и их размеры. Чем больше снапшотов, тем больше метаданных для анализа перед консолидацией. Кроме того, при нескольких снапшотах консолидация происходит в несколько этапов.
  • Производительность подсистемы хранения, включая FC-фабрику, Storage Processor'ы хранилищ, LUN'ы (число дисков в группе, тип RAID и многое другое).
  • Тип данных в файлах снапшотов (нули или случайные данные).
  • Нагрузка на хост-сервер ESXi при снятии снапшота.
  • Нагрузка виртуальной машины на подсистему хранения в процессе консолидации. Например, почтовый сервер, работающий на полную мощность, может очень долго находится в процессе консолидации снапшотов.

Тут надо отметить, что процесс консолидации - это очень требовательный к подсистеме ввода-вывода процесс, поэтому не рекомендуется делать это в рабочие часы, когда производственные виртуальные машины нагружены.

Итак, как можно оценивать производительность процесса консолидации снапшотов:

Смотрим на производительность ввода-вывода хранилища, где находится ВМ со снапшотами.

Для реализации этого способа нужно, чтобы на хранилище осталась только одна тестовая виртуальная машина со снапшотами. С помощью vMotion/Storage vMotion остальные машины можно с него временно убрать.

1. Сначала смотрим размер файлов снапшотов через Datastore Browser или с помощью следующей команды:

ls -lh /vmfs/volumes/DATASTORE_NAME/VM_NAME | grep -E "delta|sparse"

2. Суммируем размер файлов снапшотов и записываем. Далее находим LUN, где размещена наша виртуальная машина, которую мы будем тестировать (подробнее об этом тут).

3. Запускаем команду мониторинга производительности:

# esxtop

4. Нажимаем клавишу <u> для переключения в представление производительности дисковых устройств. Для просмотра полного имени устройства нажмите Shift + L и введите 36.

5. Найдите устройство, на котором размещен датастор с виртуальной машиной и отслеживайте параметры в колонках MBREAD/s и MBWRTN/s в процессе консолидации снапшотов. Для того, чтобы нужное устройство было вверху экрана, можно отсортировать вывод по параметру MBREAD/s (нажмите клавишу R) or MBWRTN/s (нажмите T).

Таким образом, зная ваши параметры производительности чтения/записи, а также размер снапшотов и время консолидации тестового примера - вы сможете оценить время консолидации снапшотов для других виртуальных машин (правда, только примерно того же профиля нагрузки на дисковую подсистему).

Смотрим на производительность конкретного процесса консолидации снапшотов.

Это более тонкий процесс, который можно использовать для оценки времени снапшота путем мониторинга самого процесса vmx, реализующего операции со снапшотом в памяти сервера.

1. Запускаем команду мониторинга производительности:

# esxtop

2. Нажимаем Shift + V, чтобы увидеть только запущенные виртуальные машины.

3. Находим ВМ, на которой идет консолидация.

4. Нажимаем клавишу <e> для раскрытия списка.

5. Вводим Group World ID (это значение в колонке GID).

6. Запоминаем World ID (для ESXi 5.x процесс называется vmx-SnapshotVMX, для ранних версий SnapshotVMXCombiner).

7. Нажимаем <u> для отображения статистики дискового устройства.

8. Нажимаем <e>, чтобы раскрыть список и ввести устройство, на которое пишет процесс консолидации VMX. Что-то вроде naa.xxx.

9. Смотрим за процессом по World ID из пункта 6. Можно сортировать вывод по параметрам MBREAD/s (клавиша R) или MBWRTN/s (клавиша T).

10. Отслеживаем среднее значение в колонке MBWRTN/s.

Это более точный метод оценки и его можно использовать даже при незначительной нагрузке на хранилище от других виртуальных машин.


Таги: VMware, Snapshots, Performance, vSphere, ESXi, VMachines, Storage

Как скопировать VMware ВМ Notes в Computer/AD Computer Account description.


Имя компьютера/сервера не всегда является достаточно информативным, например, имя «DC01» скажет вам намного меньше, чем «DC: Сайт Москва - GC, FSMO: Schema, RID, PDC». Поскольку имя компьютера NetBIOS/Hostname имеет ограничения как по длине, так и по набору символов, то для хранения этой дополнительной информации и предназначено поле «Description». Оно существует как для компьютера, т.е. внутри ОС (System Properties)...


Таги: VMware, vSphere, Enterprise, Обучение, VMachines

Сколько "съедает" виртуализация бизнес-критичных приложений на платформе VMware vSphere?


На блогах VMware появился интересный пост про производительность виртуальных машин, которые "растянуты" по ресурсам на весь физический сервер, на котором они запущены. В частности, в посте речь идет о сервере баз данных, от которого требуется максимальная производительность в числе транзакций в секунду (см. наш похожий пост о производительности облачного MS SQL здесь).

В данном случае речь идет о виртуализации БД с типом нагрузки OLTP, то есть обработка небольших транзакций в реальном времени. Для тестирования использовался профиль Order-Entry, который основан на базе бенчмарка TPC-C. Результаты подробно описаны в открытом документе "Virtualizing Performance Critical Database Applications in VMware vSphere 6.0", а здесь мы приведем основные выдержки.

Сводная таблица потерь на виртуализацию:

Метрика Нативное исполнение нагрузки Виртуальная машина
Пропускная способность транзакций в секунду 66.5K 59.5K
Средняя загрузка логических процессоров (72 штуки) 84.7% 85.1%
Число операций ввода-вывода (Disk IOPS) 173K 155K
Пропускная способность ввода-вывода дисковой подсистемы (Disk Megabytes/second) 929MB/s 831MB/s
Передача пакетов по сети в секунду 71K/s receive
71K/s send
63K/s receive
64K/s send
Пропускная способность сети в секунду 15MB/s receive
36MB/s send
13MB/s receive
32MB/s send

А вот так выглядит график итогового тестирования (кликабельно):

Для платформы VMware ESXi 5.1 сравнивалась производительность на процессоре микроархитектуры Westmere, а для ESXi 6.0 - на процессорах Haswell.

Результаты, выраженные в числе транзакций в секунду, вы видите на картинке. Интересно заметить, что ESXi версии 6.0 всерьез прибавил по сравнению с прошлой версией в плане уменьшения потерь на накладные расходы на виртуализацию.

А вот так выглядят усредненные значения для версий ESXi в сравнении друг с другом по отношению к запуску нагрузки на нативной платформе:

Ну и несложно догадаться, что исследуемая база данных - это Oracle. Остальное читайте в интереснейшем документе.


Таги: VMware, vSphere, Performance, Whitepaper, Oracle, VMachines

Фикс бага с Changed Block Tracking в VMware vSphere 6 оказался неполным - новый баг.


Странные вещи происходят в последнее время с VMware. Сначала в технологии Changed Block Tracking (CBT) платформы VMware vSphere 6 был найдет серьезный баг, заключавшийся в том, что операции ввода-вывода, сделанные во время консолидации снапшота ВМ в процессе снятия резервной копии, могли быть потеряны. Из-за этого пользователи переполошились не на шутку, ведь бэкапы, а это критически важная составляющая инфраструктуры, могли оказаться невосстановимыми.

Недавно этот баг был пофикшен в обновлении ESXi600-201511401-BG, и вроде бы все стало окей. Но нет - оказалось, что накатить обновление на ваши серверы VMware ESXi недостаточно, о чем своевременно сообщила компания Veeam (официальная KB находится вот тут). Нужно еще и сделать операцию "CBT reset", то есть реинициализировать Changed Block Tracking для виртуальных машин.

Все дело в том, что уже созданные файлы CBT map могут содержать невалидные данные, касательно изменившихся блоков, а ведь они могли быть созданы еще до накатывания патча от VMware. Таким образом, простое обновление ESXi не убирает потенциальную проблему - старые файлы *-ctk.vmdk могут, по-прежнему, быть источником проблем. Удивительно, как такая могучая компания как VMware просто взяла и прошляпила этот момент.

Итак, как нужно делать CBT reset для виртуальной машины описано вот тут у Veeam. Приведем этот процесс вкратце:

1. Открываем настройки виртуальной машины (да-да, для каждой ВМ придется это делать) и идем в Configuration Parameters:

2. Там устанавливаем значение параметра:

ctkEnabled = false

3. Далее устанавливаем

scsi0:x.ctkEnabled также в значение false:

4. Открываем папку с виртуальной машиной через Datastore Browser и удаляем все файлы *-ctk.vmdk (это и есть CBT map файлы):

5. Включаем виртуальную машину и заново запускаем задачу резервного копирования Veeam Backup and Replication.

Для тех, кто умеет пользоваться интерфейсом PowerCLI есть бонус - компания Veeam сделала PowerShell-скрипт, который автоматизирует эту операцию. Он позволяет переинициализировать CBT для указанных пользователем виртуальных машин. Виртуальные машины со снапшотом, а также выключенные ВМ будут проигнорированы. Также надо отметить, что при выполнении сценария создается снапшот машины, а потом удаляется, что может вызвать временное "подвисание" машины и ее недоступность в течение некоторого времени, поэтому лучше выполнять этот скрипт ночью или в нерабочие часы.


Таги: VMware, CBT, Bug, Bugs, Veeam, Backup, VMachines, PowerCLI

Вышел Windows Sever 2016 Technical Preview 4 - что нового?


На днях компания Microsoft выпустила очередное обновление технологического превью следующего поколения своей серверной платформы - Windows Sever 2016 Technical Preview 4 (а также и System Center 2016).

В новой версии появилось несколько важных нововведений, многие из которых непосредственно касаются технологий виртуализации:

1. Поддержка контейнеров приложений Windows Server Containers и Hyper-V Containers.

Эта поддержка появилась еще в Technical Preview 3, но в этом обновлении была существенно расширена. Напомним, что мы уже писали об этом вот тут. В новой версии Windows Server будут поддерживаться как контейнеры Docker на базе механизма Windows Server Containers в среде физических серверов:

так и Hyper-V Containers на базе виртуальных машин (подробнее об этом - тут):

В прошлом превью поддерживалась только технология Windows Server Containers, теперь же Microsoft сделала публичной технологию Hyper-V Containers. Она позволяет развертывать виртуальные сервисы в контейнерах в средах с повышенной изоляцией на базе виртуальных машин на платформе Hyper-V. Аналогичный подход компания VMware предлагает и в своей платформе vSphere с технологией vSphere Integrated Containers.

Ниже можно посмотреть живую демонстрацию технологии Hyper-V Containers от легендарного Марка Руссиновича:

Документация о контейнерах на платформе Windows Server доступна вот тут.

2. Улучшения Nano Server.

Напомним, что об этом решении мы также писали вот тут. Nano Server как раз подходит как среда исполнения для контейнеров Docker (но не только). По сравнению с прошлым превью Windows Server в данной версии Nano Server появились следующие улучшения:

  • Поддержка роли DNS server
  • Поддержка роли IIS
  • Поддержка технологии MPIO
  • Средства Virtual Machine Manager (VMM)
  • Поддержка интерфейса мониторинга SCOM
  • Работа с режимом PowerShell DSC (Desire State Configuration) для развертывания и настройки новых систем
  • Поддержка технологии DCB (Data Center Bridging)
  • Улучшенный установщик Windows Server Installer
  • Инструментарий WMI для механизма Windows Update
  • Поддержка пакетов AppX

3. Поддержка вложенной виртуализации Hyper-V.

Об этом мы весьма подробно писали вот тут. Ранее эти средства были доступны в сборках Windows 10, теперь же возможность была добавлена и в Windows Server.

4. Поддержка Direct Device Assignment (проброс устройств на шине PCIe).

Теперь в Windows Server появился полноценный прямой проброс PCI-устройств в виртуальные машины. Если ранее поддерживалась только технология SR-IOV для сетевых адаптеров, то теперь Direct Device Assignment можно применять для любых устройств на шине PCI Express, например, для устройств хранения на базе Flash-накопителей (см. раскрытое устройство Dell):

Это позволит превратить вашу виртуальную машину в сервер хранения как Virtual Storage Appliance (например, для тех же виртуальных машин) с прямым доступом к хранилищу.

Более подробно об этом можно прочитать вот тут.

5. Улучшения технологии Storage Spaces Direct (S2D).

Теперь в рамках данной технологии появилась поддержка виртуальных дисков Multi-Resilient Virtual Disks, которые представляют собой так называемый "3D-RAID", то есть каждый виртуальный диск содержит в себе зеркальные копии данных других дисков, кодированные по алгоритму с контролем четности (это позволяет создавать избыточность любой глубины на уровне виртуальных дисков):

Все данные записываются в Mirror tier (это часть виртуального диска с наибольше производительностью underlying storage), а в Parity tier уходят избыточные данные для коррекции ошибок в случае сбоев. Операционная система ReFS всегда записывает данные сначала в mirror tier, а если требуется апдейт parity tier, то он идет следом. Таким образом достигается полная надежность рабочего процесса изменения данных:

Нечто подобное (на простейшем уровне) используется в решении VMware Virtual SAN (а в следующей версии будет еще круче). Более подробнее о технологии S2D можно почитать вот тут.

6. Прочие улучшения.

Среди прочего, появилась поддержка технологии Virtual Machine Multi-Queue для виртуальных машин, позволяющей максимально эффективно использовать сети 10G+. Также были расширены возможности технологии Just Enough Administration (JEA), предоставляющей только самые необходимые инструменты для таких серверных ролей, как, например, контроллер домена, которые требуют максимального уменьшения поверхности возможной атаки.

Также интересно, что теперь в разделе документации по платформе Hyper-V в Windows 10 была добавлена возможность самому внести вклад в разделы о продуктах и технологиях (нужно нажать "Contribute to this topic"):

Скачать Windows Sever 2016 Technical Preview 4 можно по этой ссылке. Подробно обо всех нововведениях обновленного превью можно прочитать вот здесь.


Таги: Microsoft, Hyper-V, Update, Server, VMachines, Containers, Docker

Обход бага с невалидными бэкапами из-за Changed Block Tracking в VMware vSphere 6 для пользователей Veeam Backup and Replication.


Недавно мы писали о серьезном баге в механизме Changed Block Tracking (CBT) платформы VMware vSphere 6, который приводит к тому, что инкрементальные резервные копии виртуальных машин оказываются невосстановимыми.

Это, конечно, очень неприятное известие, но не для пользователей решения Veeam Backup and Replication, так как там есть возможность отключить поддержку глючной технологии CBT. Для этого идем в свойства задачи резервного копирования (Edit Backup Job) и выбираем там пункт "Advanced":

И на вкладке vSphere расширенных настроек убираем галку "Use changed block tracking data (recommended)":

Это приведет к тому, что при создании инкрементальных резервных копий Veeam B&R при следующем запуске задачи не будет использовать технологию CBT для отслеживания изменившихся блоков, а значит при создании инкремента бэкапа будут сравниваться все блоки диска ВМ на отличия от бэкапа. Это займет большее время, но ваша резервная копия гарантированно окажется восстановимой.

Такое вот приятное отличие Veeam Backup and Replication от других продуктов для резервного копирования позволит вам продолжать использовать технологии резервного копирования в производственной среде в то время как все остальные пользователи (которые без B&R) страдают и воют от безысходности.


Таги: Veeam, Backup, VMware, Bug, Bugs, vSphere, VMachines

Как конвертировать «тонкие» VMDK-диски в Eager Zeroed Thick с помощью VMware PowerCLI.


Сегодняшняя статья расскажет вам ещё об одной функции моего PowerShell-модуля для управления виртуальной инфраструктурой VMware - Vi-Module. Первая статья этой серии с описанием самого модуля находится здесь. Функция Convert-VmdkThin2EZThick. Как вы уже поняли из её названия, функция конвертирует все «тонкие» (Thin Provision) виртуальные диски виртуальной машины в диски типа Thick Provision Eager Zeroed.


Таги: VMware, VMDK, PowerCLI, Storage, PowerShell, ESXi, VMachines, Blogs

Анонсирован Veeam Managed Backup Portal for Service Providers - бизнес по резервному копированию виртуальных машин в коробке.


Компания Veeam на проходящей сейчас конференции VeeamOn 2015 (напомним, что мы ведем оттуда live-блог) анонсировала интересное средство Veeam Managed Backup Portal for Service Providers, позволяющее сервис-провайдерам (и даже реселлерам решений по виртуализации) организовать резервное копирование виртуальных машин своих клиентов. Давайте посмотрим, как это делается.

Решение Veeam Managed Backup Portal for Service Providers состоит из двух ключевых компонентов: облачная инфраструктура виртуализации, где работают виртуальные машины (это может быть как IaaS-облако, так и частная инфраструктура клиента), а также виртуальный модуль на Microsoft Azure Marketplace, который реализует портал управления резервным копированием нескольких клиентов. То есть, сама управляющая ВМ находится в облаке Azure.

Портал имеет два представления: service provider view (где можно управлять несколькими клиентами) и customer view (портал самообслуживания для конкретного клиента, где он может просматривать проведенные операции и получать счета за услуги).

Помимо, собственно, функций управления резервным копированием, Veeam Managed Backup Portal for Service Providers реализует функциональность биллинга, позволяющего учитывать стоимость проведенных работ по защите данных и выставлять счета клиенту (причем, как в автоматическом, так и в ручном режиме с произвольной периодичностью).

Давайте взглянем на саму консоль:

Тут можно посмотреть на инфраструктуру клиента, узнать статусы инвойсов, а также какой объем данных резервного копирования используется, и сколько еще осталось по квоте.

Можно смотреть статусы репозиториев, где хранятся резервные копии, а также отслеживать успешные и неуспешные задачи резервного копирования и их длительность (чтобы контролировать окна РК). Кроме того, можно смотреть на управляемые серверы, с которых идет бэкап, а также управлять задачами РК на вкладке Jobs.

Здесь же можно выгружать логи, управлять алармами, которые шлют по почте (например, можно отключать специфические предупреждения для конкретного клиента). Надо отметить, что вся коммуникация с консолью продукта идет по защищенному каналу, поэтому никакой VPN вам не потребуется.

Давайте взглянем на портал со стороны клиента:

Тут он может просматривать виртуальные машины, которые защищены сервисами облачного провайдера (или его реселлера, который решил начать бизнес по продаже услуг облачного резервного копирования инфраструктуры), квоты на хранилища и трафик.

Также можно посмотреть на защищаемые серверы, активные алармы и счета от сервис-провайдера. Все удобно и прозрачно.

Решение Veeam Managed Backup Portal for Service Providers полностью интегрировано со средством Veeam Cloud Connect for Service Providers (о нем мы писали вот тут). Клиенты, которые создаются в бэкап-портале, видны в интерфейсе Veeam Backup & Replication, поэтому для сервис-провайдера процесс резервного копирования виртуальных машин, его мониторинг и биллинг клиента складывается в цельную картинку.

Veeam Managed Backup Portal for Service Providers будет требовать новую версию Veeam Availability Suite v9, которая выйдет к концу этого года, а доступность Veeam Managed Backup Portal for Service Providers ожидается в течение 90 дней с момента выхода девятой версии пакета решений от Veeam. В ближайшее время мы расскажем еще немало интересного - не отключайтесь!


Таги: Veeam, Backup, Cloud, IaaS, VMachines

Вышел VMware ESXi Embedded Host Client Fling v3 - новые возможности.


Мы уже не раз писали про VMware ESXi Embedded Host Client, который возвращает полноценный веб-клиент для сервера VMware ESXi с возможностями управления хостом и виртуальными машинами, а также средствами мониторинга производительности.

Совсем недавно на сайте проекта VMware Labs была опубликована третья версия этого полезнейшего средства - VMware ESXi Embedded Host Client Fling v3.

Теперь для этого продукте есть offline bundle, который можно накатывать с помощью VMware Update Manager, как на VMware vSphere 5.x, так и на VMware vSphere 6.x.

Одна из долгожданных фичей этого релиза - возможность просматривать и редактировать разделы дисков ESXi:

Если у вас есть это средство второй версии, то обновиться на третью можно с помощью следующей команды:

[root@mini:~] esxcli software vib update -v /esxui-signed.vib
Installation Result
Message: Operation finished successfully.
Reboot Required: false
VIBs Installed: VMware_bootbank_esx-ui_0.0.2-0.1.3172496
VIBs Removed: VMware_bootbank_esx-ui_0.0.2-0.1.3015331
VIBs Skipped:

Новые возможности VMware ESXi Embedded Host Client Fling v3:

Виртуальные машины

  • Поддержка ответа на вопрос интерфейса (Answer question)
  • Поддержка виртуального железа (Virtual Hardware) на самую последнюю версию, поддерживаемую хостом ESXi
  • Горячее редактирование настроек ВМ
  • Настройка колонок в конфигурации (показать/спрятать/ширина), которая сохраняется при рефреше страницы
  • Настройка приоритета VM startup/shutdown

Хост ESXi

  • Изменение политики электропитания (power management policy) и расширенные ее настройки
  • Генерация запроса на подпись IP/FQDN-сертификатом и импорт сертификата
  • Добавление хоста к контроллеру домена

Хранилища

  • Редактор разделов диска хоста
  • Рескан для обнаружения новых LUN и изменений в старых
  • Обнаружение новых томов VMFS
  • Очистка таблицы разделов на диске
  • Диаграмма разбиения разделов диска
  • Возможность увеличения хранилища для диска, у которого уже есть таблица разделов

Графики производительности

  • Возможность изменять цвета диаграмм (дефолтная схема и высококонтрастная)
  • Добавлены графики Network и Disk в разделе производительности
  • Улучшенное быстродействие интерфейса
  • Улучшенная производительность на планшетах
  • Возможность спрятать верхнюю легенду на диаграмме
  • Возможность спрятать виджет для расчистки места

Основное

  • In-app update tool: возможность обновлять самого себя, просто подставив обновленный VIB-пакет
  • Запоминается выбранная вкладка на планшете при навигации
  • Более плавный скроллинг на планшетах
  • Возможность спрятать интерфейс навигатора, оставив быстрые кнопки Host, Host Manage, Host Monitor, VMs, Storage и Networking
  • Кнопка закрытия в менюшках
  • Переподключение к консоли при потере соединения к ВМ или при откатывании к снапшоту
  • Множественные багофиксы

Скачать VMware ESXi Embedded Host Client Fling v3 можно по этой ссылке.


Таги: VMware, ESXi, VMachines, Management

Вышел 5nine Manager 8 - что нового?


Компания 5nine Software, известная своими продуктами для виртуальных инфраструктур Microsoft, недавно выпустила обновление своего флагманского продукта 5nine Manager 8. На сегодняшний день 5nine Manager является самым экономически эффективным средством управления и мониторинга среды Hyper-V. Он обеспечивает большинство функций System Center Virtual Machine Manager за небольшую часть его цены. 5nine Manager позволяет гораздо проще перейти с VMware на Hyper-V, предлагая администраторам дизайн консоли, аналогичный vCenter.


Таги: 5nine, Hyper-V, Update, Microsoft, SC VMM, VMachines

Вложенная виртуализация (Nested Virtualization) на Microsoft Hyper-V впервые появилась в Windows 10.


Мы часто пишем о проблемах вложенной виртуализации (nested virtualization), которая представляет собой способ запустить виртуальные машины на гипервизоре, который сам установлен в виртуальной машине. На платформе VMware ESXi эта проблема давно решена, и там nested virtualization работает уже давно, мало того - для виртуального ESXi есть даже свои VMware Tools.

Как мы недавно писали, решения для вложенной виртуализации на платформе Microsoft Hyper-V не было. При попытке запустить виртуальную машину на виртуальном хосте Hyper-V администраторы получали вот такую ошибку:

VM failed to start. Failed to start the virtual machine because one of the Hyper-V components is not running.

Все это происходило из-за того, что Microsoft не хотела предоставлять виртуальным машинам средства эмуляции техник аппаратной виртуализации Intel VT и AMD-V. Стандартная схема виртуализации Hyper-V выглядела так:

Virtualization Extensions передавались только гипервизору хостовой ОС, но не гостевой ОС виртуальной машины. А без этих расширений виртуальные машины в гостевой ОС запущены быть не могли.

В Windows 10 Build 10565 (этот превью-билд можно скачать по этой ссылке для x64 и по этой для x86) компания Microsoft, наконец-то, решила поменять ситуацию: теперь Virtualization Extensions передаются в гостевую ОС:

 

Соответственно, это позволит запустить вложенные виртуальные машины на хосте, который сам является виртуальной машиной с гостевой ОС Windows и включенной ролью Hyper-V.

На данный момент работает это только с Intel VT, но по идее к релизу Windows Server 2016 должно заработать и для AMD-V.

Сфера применения вложенных виртуальных машин не такая уж и узкая. Сейчас видится 2 основных направления:

  • Виртуальные тестовые лаборатории, где развертываются виртуальные серверы Hyper-V и строятся модели работающих виртуальных инфраструктур в рамках одного физического компьютера.
  • Использование контейнеризованных приложений (например, на движке Docker) в виртуальных машинах на виртуальных хостах Hyper-V. Более подробно о Windows Server Containers можно почитать вот тут. Немногим ранее мы писали об аналогичной архитектуре на базе VMware vSphere, анонсированной на VMware VMworld 2015.

Надо отметить, что для вложенных виртуальных машин не поддерживаются следующие операции (как минимум):

  • Dynamic Memory
  • Горячее изменение памяти работающей ВМ
  • Снапшоты
  • Live Migration
  • Операции save/restore

Ну и вообще, вряд ли вложенная виртуализация вообще когда-нибудь будет полностью поддерживаться в производственной среде. Кстати, вложенная виртуализация на сторонних гипервизорах (например, VMware vSphere) также не поддерживается.

Для того, чтобы вложенная виртуализация заработала, нужно:

1. Использовать Windows 10 Build 10565. Windows Server 2016 Technical Preview 3 (TPv3) и Windows 10 GA - не подойдут, так как в них возможности Nested Virtualization нет.

2. Включить Mac Spoofing на сетевом адаптере виртуального хоста Hyper-V, так как виртуальный коммутатор хостового Hyper-V будет видеть несколько MAC-адресов с этого виртуального адаптера.

3. В Windows 10 нужно отключить фичу Virtualization Based Security (VBS), которая предотвращает трансляцию Virtualization Extensions в виртуальные машины.

4. Предусмотреть память под сам гостевой гипервизор и под все запущенные виртуальные машины. Память для гипервизора можно рассчитать так:

Теперь для того чтобы включить Nested Virtualization, выполните следующий сценарий PowerShell (в нем и VBS отключается, и Mac Spoofing включается):

Invoke-WebRequest https://raw.githubusercontent.com/Microsoft/Virtualization-Documentation/master/hyperv-tools/Nested/Enable-NestedVm.ps1 -OutFile ~/Enable-NestedVm.ps1

~/Enable-NestedVm.ps1 -VmName <VmName>

Далее создайте виртуальную машину на базе Windows 10 Build 10565, и включите в ней Mac Spoofing (если вы не сделали это в скрипте). Сделать это можно через настройки ВМ или следующей командой PowerShell:

Set-VMNetworkAdapter -VMName <VMName> -MacAddressSpoofing on

Ну а дальше просто запускайте виртуальную машину на виртуальном хосте Hyper-V:


Таги: Microsoft, Hyper-V, Nested, Virtualization, VMachines, Windows, Server

Как получить расширенную информацию об RDM-дисках с помощью PowerCLI.


Этой статьёй я хочу открыть серию статей, целью каждой из которых будет описание одной из написанных мной функций PowerCLI или так называемых командлетов (cmdlets), предназначенных для решения задач в виртуальных инфраструктурах, которые невозможно полноценно осуществить с помощью только лишь встроенных функций PowerCLI. Все эти функции будут объединены в один модуль - Vi-Module. Как им пользоваться, можете почитать здесь.


Таги: VMware, RDM, PowerCLI, Storage, ESXi, VMachines, PowerShell

Резервное копировние виртуальных машин на томах Virtual Volumes (VVols) в VMware vSphere.


Мы уже немало писали про технологию использования хранилищ VVols (например, здесь и здесь), которая позволяет существенно увеличить производительность операций по работе с хранилищами в среде VMware vSphere за счет использования отдельных логических томов под компоненты виртуальных машин и передачи части операций по работе с ними на сторону дисковых массивов.

Давайте посмотрим, как же технология VVols влияет на процесс резервного копирования виртуальных машин, например, с помощью основного продукта для бэкапа ВМ Veeam Backup and Replication, который полностью поддерживает VVols. Для начала рассмотрим основные способы резервного копирования, которые есть в виртуальной среде:

  • Резервное копирование за счет монтирования виртуальных дисков (Hot Add backup) - в этом случае к одной ВМ монтируется диск VMDK другой ВМ и происходит его резервное копирование
  • Резервное копирование по сети передачи данных (NBD backup) - это обычное резервное копирование ВМ по сети Ethernet, когда снимается снапшот ВМ (команды отдаются хостом ESXi), основной диск передается на бэкап таргет, а потом снапшот применяется к основному диску ("склеивается" с ним) и машина продолжает работать как раньше.
  • Резервное копирование по сети SAN (SAN-to-SAN backup) - в этом случае на выделенном сервере (Backup Server) через специальный механизм Virtual Disk API происходит снятие снапшота ВМ без задействования хоста ESXi и бэкап машины на целевое хранилище напрямую в сети SAN без задействования среды Ethernet.

Последний способ - самый быстрый и эффективный, но он требует наличия специальных интерфейсов (vSphere APIs и Virtual Disk Development Kit, VDDK), которые должны присутствовать на выделенном сервере.

К сожалению, для VVols способ резервного копирования по сети SAN еще не поддерживается, так как данный механизм для прямой работы с хранилищами SAN для VVols еще не разработан. Поэтому при работе с VVols придется использовать NBD backup. Однако не расстраивайтесь - большинство компаний именно его и используют для резервного копирования машин на томах VMFS в силу различных причин.

Работа хоста VMware ESXi с томами виртуальной машины VVols выглядит следующим образом:

Для процессинга операций используется Protocol Endpoint (PE), который представляет собой специальный административный LUN на хранилище. PE работает с лунами машин (VVols), которые представлены через secondary LUN ID, а VASA Provider со стороны дискового массива снабжает vCenter информацией о саблунах виртуальных машин, чтобы хост ESXi мог с ними работать через PE.

Таким образом, в новой архитектуре VVols пока не прикрутили технологический процесс соединения стороннего сервера с VVols виртуальных машин и снятия с них резервных копий.

Вернемся к процессу резервного копирования. Как известно, он опирается на механизм работы снапшотов (Snapshots) - перед снятием резервной копии у ВМ делается снапшот, который позволяет перевести базовый диск в Read Only, а изменения писать в дельта-диск снапшота. Далее базовый диск ВМ копируется бэкап-сервером, ну а после того, как базовый диск скопирован, снапшот склеивается с основным диском, возвращая диски машины обратно в консолидированное состояние.

Так это работает для файловой системы VMFS, которая развертывается поверх LUN дискового массива. Сами понимаете, что при интенсивной нагрузке во время резервного копирования (особенно больших виртуальных дисков) с момента снятия снапшота может пройти довольно много времени. Поэтому в дельта-дисках может накопиться много данных, и процесс консолидации снапшота на практике иногда занимает часы!

Для виртуальных томов VVols все работает несколько иначе. Давайте взглянем на видео:

В среде VVols при снятии снапшота базовый диск остается режиме Read/Write (это все делает массив), то есть контекст записи данных никуда не переключается, и изменения пишутся в базовый диск. В снапшоты (это отдельные тома VVol) пишется только информация об изменениях базового диска (какие дисковые блоки были изменены с момента снятия снапшота).

Ну а при удалении снапшота по окончанию резервного копирования никакой консолидации с базовым диском производить не требуется - так как мы продолжаем с ним работать, просто отбрасывая дельта-диски.

Такой рабочий процесс несколько увеличивает время создания снапшота в среде VVols:

Но это всего лишь десятки секунд разницы. А вот время консолидации снапшота по окончанию резервного копирования уменьшается во много раз:

Как следствие, мы имеем уменьшение совокупного времени резервного копирования до 30%:

Так что, если говорить с точки зрения резервного копирования виртуальных машин, переход на VVols обязательно даст вам прирост производительности операций резервного копирования и позволит уменьшить ваше окно РК.


Таги: VMware, VVols, Storage, VMFS, Backup, VMachines, Performance, Snapshots

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge